Sorterad på relevans Sortera på datum
Resultat 1 - 10 av 26

Metas smartglasögon får videosamtal och multimodal AI

Metas och Ray-Bans smartglasögon har fått stöd för videosamtal via Whatsapp och Messenger, så att användare kan dela vad de ser med andra – hands-free. När videosamtal inleds ser motparten vad du ser tack vare glasögonens kamera. Nyheten kommer skickas ut

Sammanhang: ...Nyheten kommer skickas ut gradvis så det kan dröja innan alla användare får tillgång till videosamtalen. Meta har därtill givit glasögonen multimodal AI vilket innebär att det går att ställa frågor om omgivningen. Ett exempel är att be glasögonen att berätta mer om en sevärdhet i synfältet, eller be Meta AI att översätta en restaurangmeny. ...

Omnämnda platser: Metas, USA, Kanada.

swedroid.se - https://swedroid.se/...imodal-ai/ - 642 - Datum: 2024-04-24 11:18. - Leta efter artikeln på Archive.today »

De här glasögonen erbjuder multimodal AI och har öppen källkod

Nystartade företaget Brilliant Labs har introducerat ett par smartglasögon med multimodal AI. Glasögonen – som heter Frame – skulle kunna ses som Humane AI Pin fast i ett annat format. Enligt företagets hemsida har Frame designats i Stockholm och San Francisco,

Sammanhang: ...Nystartade företaget Brilliant Labs har introducerat ett par smartglasögon med multimodal AI. Glasögonen – som heter Frame – skulle kunna ses som Humane AI Pin fast i ett annat format. ...

Omnämnda platser: Stockholm, Singapore, Frame.

swedroid.se - https://swedroid.se/...n-kallkod/ - 1865 - Datum: 2024-02-12 11:18. - Leta efter artikeln på Archive.today »

Meta släpper ny version av översättningsmodell

SeamlessM4T blir mer uttrycksfull Meta har släppt en ny version av sin AI-baserade översättningsmodell SeamlessM4T (Massively Multilingual and Multimodal Machine Translation). Den nya versionenav

Sammanhang: ... SeamlessM4T blir mer uttrycksfull Meta har släppt en ny version av sin AI-baserade översättningsmodell SeamlessM4T (Massively Multilingual and Multimodal Machine Translation). Den nya versionen av modellen inkluderar något som Meta kallar för "SeamlessExpressive", en funktionalitet som ska göra översättningarna mer uttrycksfulla och efterlikna det som översätts. ...

Omnämnda platser: Metas, Threads. Omnämnda personer: Multimodal Machine, Mark Zuckerberg.

feber.se - https://feber.se/int...edium=feed - 1721 - Datum: 2023-12-04 17:17. - Leta efter artikeln på Archive.today »

Google ger imponerande glimt av multimodal AI innan I/O

Kanske för att kontra vad OpenAI just nu presenterar har Google givit en imponerande glimt av hur Gemini till synes tolkar video i realtid. Personen i klippet pratar med Gemini och frågar vad chattbotten tror pågår, medan kameran riktas mot en I/O-scen. Google

Sammanhang: ...Google ger imponerande glimt av multimodal AI innan I/O...

swedroid.se - https://swedroid.se/...innan-i-o/ - 691 - Datum: 2024-05-13 20:18. - Leta efter artikeln på Archive.today »

Googles nya AI-assistent kan se sin omgivning i realtid

Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. I ett teknikdemo som Google visat upp kan assistenten skilja på olika saker i sin miljö och notera vart

Sammanhang: ...Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. ...

Omnämnda personer: Googles Gemini, Demis Hassabis.

sweclockers.se - https://www.sweclock...-i-realtid - 1293 - Datum: 2024-05-15 12:18. - Leta efter artikeln på Archive.today »

OpenAI introducerar nyheter i morgon: ”känns som magi”

Enligt flera rapporter arbetar OpenAI på någon slags sökmotor eller sökfunktion. OpenAI kommer presentera nyheter i morgon klockan 19:00 svensk tid – dagen innan Google I/O vilket sannolikt inte är en tillfällighet. Sam Altman säger dock att de varken kommer

Sammanhang: ...Vad OpenAI nu än kommer visa upp har det med ChatGPT och GPT-4 att göra och Altman säger att det ”känns som magi”. Enligt The Information kommer vi få se multimodal AI i stil med den som redan finns i Google Gemini och Google Lens. Multimodal AI innebär att chattbotten kan hantera och tolka annan input än text, så att användare exempelvis kan ställa frågor om bilder eller be chattbotten översätta text i bilder. ...

Omnämnda personer: Google Lens, Google Gemini.

swedroid.se - https://swedroid.se/...-som-magi/ - 941 - Datum: 2024-05-12 13:18. - Leta efter artikeln på Archive.today »

Samsung kommer låta folk testa AI-funktionerna i Galaxy S24-serien

AI, AI, AI – AI överallt. En tydlig smartphonetrend i år kommer av allt att döma bli artificiell intelligens i olika former, likt chattbottar, generativ AI, digitala assistenter som mer är likt mänskliga personliga assistenter, samt multimodal AI som kantolka

Sammanhang: ...En tydlig smartphonetrend i år kommer av allt att döma bli artificiell intelligens i olika former, likt chattbottar, generativ AI, digitala assistenter som mer är likt mänskliga personliga assistenter, samt multimodal AI som kan tolka och generera bilder, video, text och tal. Google blev först ut att erbjuda integrerad generativ AI i en smartphone genom Pixel 8 och Pixel 8 Pro. ...

Omnämnda platser: Galaxy, Sverige, Paris.

swedroid.se - https://swedroid.se/...24-serien/ - 901 - Datum: 2024-01-12 14:18. - Leta efter artikeln på Archive.today »

Nu finns Googles Gemini Pro i Sverige

Smartare Bard Google meddelar idag att deras nya AI-tjänst Bard med Gemini Pro kommer att vara tillgänglig i Sverige från och med idag den 1 februari. Bard är en AI som redan tidigare har kunnat förstå och bearbeta

Sammanhang: ...Bard är nu också kapabel att generera bilder från text på engelska, tack vare att Gemini är en multimodal AI-modell. L s vidare och kommentera: https://feber.se/internet/nu-finns-googles-gemini-pro-i-sverige/461859/ L s mer om Google , Bard , Gemini Pro , AI-tjänst , multimodal AI-modell ...

Omnämnda platser: Smartare, Bard, Sverige. Omnämnda personer: Google Sök, Googles Gemini Pro, Gemini Pro.

feber.se - https://feber.se/int...edium=feed - 1099 - Datum: 2024-02-01 16:18. - Leta efter artikeln på Archive.today »

Apple släpper sin första LLM

Kallar den för Ferret Apple har i det tysta släppt en ny AI-modell som de kallar Ferret. Modellen är en multimodal Large Language Model (LLM) och har gjorts tillgänglig som ett öppen källkodsprojekt. Ferret introducerades redan

Sammanhang: ... Kallar den för Ferret Apple har i det tysta släppt en ny AI-modell som de kallar Ferret. Modellen är en multimodal Large Language Model (LLM) och har gjorts tillgänglig som ett öppen källkodsprojekt. Ferret introducerades redan i oktober av Apples AI-forskare Zhe Gan på X, men har inte fått särskilt mycket uppmärksamhet förrän nu. ...

Omnämnda platser: Apple. Omnämnda personer: Zhe Gan.

feber.se - https://feber.se/pry...edium=feed - 1281 - Datum: 2023-12-29 15:17. - Leta efter artikeln på Archive.today »

OpenAI kan släppa GPT-5 i sommar

Ska vara "materiellt bättre" OpenAI sägs planera att lansera sin nästa stora språkmodell, GPT-5, under sommaren. Denna nya version förväntas erbjuda relativt stora förbättringar, om vi får tro tidiga testare. Företaget ska redan

Sammanhang: ...L s vidare och kommentera: https://feber.se/internet/openai-kan-slappa-gpt-5-i-sommar/465895/ L s mer om OpenAI , GPT-5 , ChatGPT , AI-agenter , multimodal ...

feber.se - https://feber.se/int...edium=feed - 1244 - Datum: 2024-03-21 14:17. - Leta efter artikeln på Archive.today »


nyhet
Resultatsidor:
r
1
r
2
r
3
fram